t元j 一、什么是凸函数 对于一元函数\(f(x\)),如果对于任意\(t\epsilon[0,1]\)均满足:\(f(tx_1 + (1-t)x_2) \leq tf(x_1) + (1-t) ...
t元j 一、什么是凸函数 对于一元函数\(f(x\)),如果对于任意\(t\epsilon[0,1]\)均满足:\(f(tx_1 + (1-t)x_2) \leq tf(x_1) + (1-t) ...
二分~多分~Softmax~理预 一、简介 在二分类问题中,你可以根据神经网络节点的输出,通过一个激活函数如Sigmoid,将其转换为属于某一类的概率,为了给出具体的分类结果,你可以取0.5作为 ...
一、你知道聚类中度量距离的方法有哪些吗? 1)欧式距离 欧氏距离是最易于理解的一种距离计算方法,源自欧氏空间中两点间的距离公式。即两点之间直线距离,公式比较简单就不写了 应用场景:适用于求 ...
一、题目简述 假设样本服从正态分布:\(N(\mu,\sigma^2)\),写出似然估计的期望和方差 极大似然函数是什么意思呢? 1)写出似然函数 2)取对数 ...
(定义,举例,实例,问题,扩充,采样,人造,改变) 一、不平衡数据集 1)定义 不平衡数据集指的是数据集各个类别的样本数目相差巨大。以二分类问题为例,假设正类的样本数量远大于负类的样本数量 ...
信道压缩~通~通~减 一、1 X 1的卷积核作用 所谓信道压缩,Network in Network是怎么做到的? 对于如下的二维矩阵,做卷积,相当于直接乘以2,貌似看上去没什么意义: ...
什么~为什么~哪些(RSST) 一、什么是激活函数 如下图,在神经元中,输入的 inputs 通过加权,求和后,还被作用了一个函数,这个函数就是激活函数 Activation Function: ...
一、相同点 第一,LR和SVM都是分类算法(SVM也可以用与回归) 第二,如果不考虑核函数,LR和SVM都是线性分类算法,也就是说他们的分类决策面都是线性的。 这里要先说明一点,那就是L ...
一、常见的损失函数 常见的损失函数见这里:https://www.cnblogs.com/always-fight/p/9099704.html 二、关于经验风险和结构风险最小化 模型 ...